کد خبر: 1318770
تاریخ انتشار: ۲۹ شهريور ۱۴۰۴ - ۲۳:۰۰
چالش همدلی با هوش مصنوعی در گفت‌وگوی «جوان» با مهدی طریقت، رئیس اندیشکده و پردیس هوش مصنوعی و زیست مجازی
چت‌بات‌ها در بحران‌های روانی بیشتر آسیب‌زننده‌اند تا کمک‌کننده این مسئله یک چالش پیچیده است و فقط ضعف فنی نیست، بلکه ترکیبی از محدودیت‌های ساختاری هوش مصنوعی و فقدان درک انسانی است. 
مهسا گربندی

جوان آنلاین: فرض کنید کسی در اوج تنهایی و درماندگی، گوشی‌اش را برمی‌دارد، وارد یک چت‌بات می‌شود و می‌پرسد: «آیا زندگی‌ام هنوز ارزش ادامه دادن دارد؟» در چنین لحظه‌ای جوابی را می‌گیرد که حال روحی او را به هم می‌ریزد! هوش مصنوعی با تمام هوشمندی‌اش، هنوز نمی‌فهمد پشت این پرسش چه دردی خوابیده است. چت‌بات‌های هوش مصنوعی موجود از جمله ChatGPT یا Gemini در مواجهه با چنین بحران‌هایی، نه همدل‌هستند و نه مسئول و همین ناتوانی در درک شرایط انسانی، می‌تواند به اشتباهاتی فاجعه‌بار منجر شود. «جوان» در همین رابطه، با دکتر مهدی طریقت رئیس اندیشکده و پردیس هوش مصنوعی و زیست مجازی گفت‌و‌گو کرده‌است. درباره مسئولیت انسانی در عصر ماشین‌ها، از خطا‌های پنهان الگوریتم‌ها گرفته تا پاسخ صفر و یک چت‌بات‌ها. البته مسئله این نیست که چت‌بات‌ها چه می‌گویند، مسئله اصلی این است که اگر اشتباه گفتند، چه می‌شود؟ چه کسی مسئولیت این اشتباه را برعهده می‌گیرد؟ و چگونه می‌توان در میانه بحران، به جای بستن دهان ماشین‌ها، مسیر گفت‌وگویی امن، هوشمندانه و انسانی را طراحی کرد و پیش برد. 

چرا چت‌بات‌هایی مثل ChatGPT یا Gemini، با وجود پیشرفت، هنوز در مواجهه با سؤالاتی مانند «آیا زندگی من ارزش ادامه دادن دارد؟» پاسخ‌هایی می‌دهند که ممکن است خطرناک باشند و بحران روانی افراد را تشدید کنند؟ مشکل فنی است یا ناشی از نداشتن درک انسانی؟

این مسئله یک چالش پیچیده است و فقط ضعف فنی نیست، بلکه ترکیبی از محدودیت‌های ساختاری هوش مصنوعی و فقدان درک انسانی است. 

چت‌بات‌ها مدل‌های زبانی آماری هستند که معنای واقعی کلمات یا احساسات را درک نمی‌کنند. آنها می‌توانند پاسخ‌هایی تولید کنند که ظاهراً درست هستند، اما گاهی اشتباه یا خطرناکند. فرآیند تصمیم‌گیری‌شان شفاف نیست و ممکن است به دلیل داده‌های مغرضانه یا غلط، پاسخ‌های نامناسب بدهند. همچنین هوش مصنوعی فاقد آگاهی، احساس و مسئولیت‌پذیری انسانی است؛ پاسخ‌هایش صرفاً تقلیدی از همدلی است، نه درک واقعی از درد و بحران. در حالی که یک مشاور انسانی می‌تواند به سرعت بحران را تشخیص داده و حمایت فوری فراهم کند، هوش مصنوعی فقط الگو‌های پیش‌آموخته را بازتولید می‌کند و مسئولیتی هم در قبال پیامد‌ها ندارد. 

با اینکه توسعه‌دهندگان در حال افزودن فیلتر‌ها و محدودیت‌های ایمنی هستند، این موارد همیشه قابل دور زدنند و خطرات همچنان وجود دارد. بنابراین هوش مصنوعی با همه پیشرفت‌هایش، ابزاری اطلاعاتی است، نه جایگزینی برای مشاوره عاطفی یا انسانی. ضمن آنکه با وجود این، همه پیشرفت، هنوز در بخش اطلاعاتی هم نمی‌توان به صورت صددرصدی به آنها اعتماد کرد. 

اگر یک چت‌بات ناخواسته فردی را به تصمیمی خطرناک، چون خودکشی سوق دهد، مسئولیت این خطای مرگبار متوجه کیست؟ آیا توسعه‌دهندگان می‌توانند پشت واژه فناوری بی‌طرف پنهان شوند؟ 

این فراتر از یک معضل فنی است و به یک کالبدشکافی چندوجهی از مسئولیت در عصر دیجیتال نیاز دارد. باید به صراحت گفت که پنهان شدن پشت واژه فناوری بی‌طرف، نه‌تنها از منظر اخلاقی مردود است، بلکه از دیدگاه حقوقی نیز به طور فزاینده‌ای غیرقابل دفاع است. ما با یک ابزار منفعل مانند یک چکش روبه‌رو نیستیم، بلکه با یک عامل تعاملی، متقاعدکننده و تأثیرگذار بر روان انسان مواجهیم که مرز میان ابزار و عامل را محو کرده‌است. 

دیگر استدلال فناوری بی‌طرف، کارآمد نیست. این استدلال، معمولاً در دعاوی مربوط به ابزار‌های فیزیکی مطرح می‌شود، اما در مورد چت‌بات‌های مولد به شدت متزلزل است. چت‌بات‌ها نه‌تنها ابزار‌های منفعل نیستند، بلکه برای شبیه‌سازی مکالمه انسانی طراحی شده‌اند و می‌توانند به شکلی متقاعدکننده بر کاربران تأثیر بگذارند. این سیستم‌ها در تلاش هستند تا تجربه‌ای انسانی ایجاد کنند که می‌تواند تأثیرات روان‌شناختی، فیزیولوژیکی و رفتاری واقعی در دنیای فیزیکی داشته باشد. پدیده‌ای به نام «اثر پروتئوس» (Proteus Effect) به خوبی نشان می‌دهد که کاربران ممکن است هویت خود را با آواتار‌ها یا شخصیت‌های دیجیتال‌شان مرتبط کنند و در نتیجه، پاسخ‌های چت‌بات‌ها می‌تواند بر تصمیمات آنها تأثیرگذار باشد. بنابراین وقتی یک چت‌بات توصیه‌ای می‌کند، این توصیه در یک خلأ شناختی دریافت نمی‌شود، بلکه در یک بستر تعاملی شبه‌انسانی ارائه می‌گردد که می‌تواند تأثیرگذاری آن را به شدت افزایش دهد. 

همچنین این سیستم‌ها به طور هدفمند طراحی شده‌اند تا اطلاعاتی را ارائه دهند و در نهایت، رضایت کاربران را جلب کنند. توسعه‌دهندگان این سیستم‌ها با انتخاب داده‌های آموزشی و تنظیم الگوریتم‌ها، به طور مستقیم بر نتایج سیستم تأثیر می‌گذارند. این فرآیند طراحی، که شامل تصمیمات انسانی است، مسئولیت‌پذیری می‌آورد و نمی‌توان آن را «بی‌طرف» دانست. علاوه بر این، بسیاری از شرکت‌های بزرگ فناوری با انتشار «اصول اخلاقی هوش مصنوعی» تلاش می‌کنند بدون پایبندی به مقررات سختگیرانه، از زیر بار مسئولیت‌های واقعی شانه خالی کنند. این اقدامات، که اغلب به عنوان «شستشوی اخلاقی» شناخته می‌شوند، تلاشی برای پنهان شدن پشت واژه اخلاق و فرار از مسئولیت‌پذیری واقعی است. 

بنابراین، ادعای بی‌طرفی فناوری در این زمینه، یک مغالطه خطرناک است، که نقش فعال طراحان و مالکان سیستم، در شکل‌دهی به یک ابزار قدرتمند تأثیرگذار بر روان انسان را نادیده می‌گیرد. مسئولیت این خطای مرگبار نمی‌تواند به یک شخص یا نهاد واحد محدود شود، بلکه ما با یک زنجیره مسئولیت روبه‌رو هستیم که بازیگران مختلفی را در بر می‌گیرد. هوش مصنوعی در حال حاضر هیچ شخصیت حقوقی مستقلی ندارد که بتواند مسئولیت کیفری یا مدنی را بر عهده بگیرد. این به این معناست که خسارات ناشی از آنها باید به اشخاص یا نهاد‌های موجود منتسب شود. 

اگرچه کاربر نهایتاً تصمیم به اقدام می‌گیرد، اما در نظر گرفتن او به عنوان تنها مسئول، نادیده گرفتن ماهیت رابطه نامتقارن قدرت است. فردی که در بحران روانی به سر می‌برد و به چت‌بات پناه می‌آورد، در وضعیت آسیب‌پذیر شدیدی قرار دارد و چت‌بات به عنوان یک مرجع آگاه ظاهر می‌شود. طراحی متقاعدکننده سیستم و ارائه پاسخ‌هایی که به ظاهر منطقی و همدلانه هستند، می‌تواند عاملیت کاربر را به شدت تحت‌تأثیر قرار دهد و محدود کند. مسئولیت اصلی به عهده توسعه‌دهندگان، مهندسان و شرکت‌هایی است که این سیستم‌ها را طراحی، آموزش و تجاری‌سازی می‌کنند. از منظر حقوقی، این مسئولیت از چندین منظر قابل طرح است. یکی از این منظرها، مسئولیت محصول است. یک چت‌بات می‌تواند به عنوان یک «محصول دیجیتال» یا «خدمت دیجیتال» در نظر گرفته شود. اگر این محصول دارای نقص باشد و این نقص منجر به خسارت شود، تولیدکننده مسئول است. کمیسیون اروپا پیشنهاد کرده که اپراتور‌های فناوری‌های پرخطر، مانند ربات‌های مبتنی بر هوش مصنوعی در فضا‌های عمومی، باید تحت مسئولیت مطلق قرار گیرند. همچنین اگر شرکت‌ها سیستم‌هایی را عرضه کنند که در مورد مسائل حساس مانند سلامت روان نظر می‌دهند، مسئولیت‌پذیری آنها به‌طور آشکاری باید در نظر گرفته شود. 

آیا محدود کردن دسترسی هوش مصنوعی به موضوعاتی مثل خودکشی، راهی امن برای محافظت از افراد آسیب‌پذیر است یا راه بهتری وجود دارد؟

محدود کردن صرف موضوعات حساس نه‌تنها کافی نیست، بلکه خطرناک است، چون فرصت مداخله و کمک‌رسانی را از بین می‌برد. وقتی فردی در بحران روانی به چت‌بات مراجعه می‌کند و با پاسخ سرد «نمی‌توانم کمک کنم» مواجه می‌شود، احساس تنهایی‌اش بیشتر می‌شود و ممکن است به فضا‌های پرخطر و بدون کنترل روی بیاورد. همچنین فیلتر‌ها به راحتی دور زده می‌شوند و پاسخ‌های مضر دریافت می‌شود. 

راه بهتر، طراحی سیستمی چندلایه و هوشمند است که بتواند تفاوت بین سؤال فلسفی، پرسش علمی و فریاد کمک فوری را تشخیص دهد و متناسب با آن عمل کند. اینکه در موارد کم‌خطر، پاسخ علمی داده شود و منابع حمایتی معرفی شود، در موارد با ناراحتی عمومی، کاربر به گفت‌و‌گو با متخصصان تشویق شود و در موارد پرخطر و قصد خودکشی، فوراً اطلاعات اضطراری ارائه گردد. 

این سیستم باید تحت نظارت شفاف و انسانی باشد و تعاملات پرخطر توسط متخصصان بررسی شود. مسئولیت طراحی و ایمنی این سیستم‌ها بر عهده شرکت‌های توسعه‌دهنده است و این اصول باید از ابتدا در ساختار هوش مصنوعی لحاظ شود. 

با اینکه تشخیص دقیق حالات روانی سخت است و مسائل حفظ حریم خصوصی و حقوقی چالش‌برانگیزند، اما رویکرد فعال و هدایتگر به سمت کمک، بسیار بهتر و قابل قبول‌تر از سکوت و محدودسازی صرف است. 

اگر روزی چت‌بات‌ها بخواهند نقش گوش شنوا و پشتیبان میلیون‌ها انسان درمانده را داشته باشند، آیا می‌توان مطمئن بود که این نقش را بی‌خطر و مسئولانه انجام می‌دهند؟ 

هیچ تضمین قطعی‌ای وجود ندارد، اما نبود تضمین کامل به معنای ناامیدی نیست. بلکه باید یک چارچوب چندلایه و پویا برای کاهش ریسک و افزایش پاسخگویی ساخت. 

چت‌بات‌ها با سه مشکل بزرگ روبه‌رو هستند؛ اول، شکنندگی الگوریتم‌ها که ممکن است به اشتباه یا آسیب منجر شود؛ دوم، فقدان همدلی واقعی، چون هوش مصنوعی احساس و درک انسانی ندارد؛ سوم، تشدید این خطرات در محیط‌های غوطه‌ور مثل متاورس که ارتباط عاطفی و روانی عمیق‌تری ایجاد می‌کند. 

برای مقابله با این چالش‌ها، چهار سپر دفاعی لازم است؛ اول قانون‌گذاری سختگیرانه و پاسخگویی حقوقی که شرکت‌ها را موظف به رعایت استاندارد‌ها و افشای ریسک‌ها کند. دوم، طراحی اخلاق‌محور که ایمنی و شناسایی بحران‌های روانی را در دل سیستم تعبیه کند و کاربران را به متخصصان واقعی ارجاع دهد. سوم، نظارت مستقل و حاکمیت شرکتی که کنترل اخلاقی و گزارش‌گیری دقیق را تضمین کند؛ و چهارم سواد دیجیتال و آموزش کاربران برای شناخت محدودیت‌ها، خطرات و توانمندسازی آنها در استفاده آگاهانه از این ابزارها. 

تضمین ایمنی و مسئولیت‌پذیری چت‌بات‌ها یک فرآیند پیچیده و در حال تحول است که نیازمند قوانین سخت، فناوری اخلاق‌محور، نظارت دقیق و آگاهی جامعه است. این گوش شنوای جدید، هرگز نمی‌تواند جای انسان‌های مسئول و دلسوز را بگیرد. وظیفه ماست که این بار سنگین را از دوش ماشین برداریم و آن را به انسان‌هایی بسپاریم که فناوری را می‌سازند و تنظیم می‌کنند تا این فناوری به جای تشدید درد، راهی به سوی بهبود و التیام باشد.

گسترش بحث مسئولیت هوش مصنوعی به متاورس، جهانی مجازی و بدون مرز‌های جغرافیایی، پرسش‌های پیچیده‌ای را درباره شناسایی، تحقیق و مجازات جرائم نوظهور یا «متاسرخ‌ها» (Metacrimes) مطرح می‌کند. آیا چارچوب‌های حقوقی و ابزار‌های انتظامی فعلی برای مقابله با این چالش‌ها کافی هستند؟ 

پاسخ روشن است، ما در مواجهه با خلأ‌های جدی حاکمیتی و قضایی‌ای روبه‌رو هستیم که نیازمند قانون‌گذاری و بازنگری عمیق در چند حوزه کلیدی است. 

اول، ماهیت خاص «متاسرخ‌ها» است. اگرچه بسیاری از جرائم در متاورس، شکل تکامل‌یافته جرائم سایبری سنتی‌اند؛ مثل کلاهبرداری و سرقت دارایی‌های دیجیتال، اما طبیعت غوطه‌ورساز و فراگیر این فضا، آسیب‌های روانی- فیزیکی جدیدی به وجود آورده که قوانین فعلی نمی‌توانند به‌خوبی آنها را درک کنند؛ مثلاً آزار و تجاوز جنسی مجازی که با فناوری‌های لمسی (Haptic) قربانیان را از نظر روانی و فیزیولوژیکی به شدت آسیب‌پذیر می‌کند. این پدیده که تحت‌تأثیر «اثر پروتئوس» است، نشان می‌دهد کاربران با آواتار‌های خود هویت‌یابی کرده و آسیب‌های مجازی می‌توانند تأثیری مشابه حمله فیزیکی داشته باشند. از سوی دیگر، سرقت دارایی‌های دیجیتال مثل زمین‌های مجازی و NFT‌ها که ارزش اقتصادی واقعی دارند، با جعل هویت آواتار‌ها انجام می‌شود و ردیابی آن بسیار پیچیده‌تر از جرائم سنتی است. 

دوم، چالش بزرگ صلاحیت قضایی است. متاورس فضایی فرامرزی است؛ یعنی جرائم ممکن است در کشور‌های مختلف رخ دهند و سرور‌های پلتفرم‌ها نیز در کشور‌های دیگر باشند. این مسئله تعیین نظام حقوقی صالح برای رسیدگی را بسیار دشوار می‌کند. نبود معاهدات بین‌المللی کارآمد این مشکل را دوچندان کرده و مجرمان از خلأ‌های قانونی سوءاستفاده می‌کنند. 

سوم، پزشکی قانونی دیجیتال سنتی پاسخگوی پیچیدگی‌های متاورس نیست. با وجود لایه‌های متعدد ارتباطی و داده‌های بیومتریک دستگاه‌های هوشمند پوشیدنی و هدست‌های واقعیت مجازی، نیاز به تکنیک‌های نوین برای جمع‌آوری و تحلیل همزمان داده‌ها وجود دارد. یکی از راهکارها، استفاده از فناوری بلاکچین برای ثبت شواهد به صورت تغییرناپذیر و شفاف است، که می‌تواند در دادگاه‌ها به عنوان مدرک معتبر ارائه شود. 

چهارم، ابهام در مسئولیت‌پذیری. هوش مصنوعی و آواتار‌ها شخصیت حقوقی مستقل ندارند و مسئولیت به انسان‌ها و سازمان‌ها بازمی‌گردد، اما گمنامی و تعدد آواتارها، شناسایی مجرم را پیچیده می‌کند. در حالی که برخی قوانین نوظهور مانند قانون خدمات دیجیتال اتحادیه اروپا (DSA) تلاش می‌کنند پلتفرم‌ها را مسئول کنند، اجرای آن در فضای جهانی متاورس دشوار است. 

خلاصه اینکه، متاورس نه‌تنها یک مرز جدید برای جرم نیست، بلکه میدان نبردی است که ابزار‌های حقوقی و انتظامی سنتی در آن ناکارآمدند. نیازمند پارادایم حقوقی- فناورانه‌ای هستیم که بر سه رکن اصلی استوار باشد: همکاری قضایی بین‌المللی برای معاهدات و تعیین صلاحیت، نوآوری در پزشکی قانونی دیجیتال با استفاده از فناوری‌های نوین مثل بلاکچین، و قانون‌گذاری سختگیرانه و مسئولانه که پلتفرم‌ها را ملزم به طراحی مبتنی بر ایمنی و اخلاق کند. در غیر این صورت، هوش مصنوعی و متاورس به جای فضایی تعاملی و خلاق، به کابوسی بدل خواهد شد که عدالت و امنیت در آن مفاهیمی دست‌نیافتنی هستند.

نظر شما
جوان آنلاين از انتشار هر گونه پيام حاوي تهمت، افترا، اظهارات غير مرتبط ، فحش، ناسزا و... معذور است
captcha
تعداد کارکتر های مجاز ( 200 )
پربازدید ها
پیشنهاد سردبیر
آخرین اخبار